Come il cervello elabora parole e musica di una canzone
GIOVANNI ROSSI
NOTE E NOTIZIE - Anno XVII – 21 marzo 2020.
Testi pubblicati sul sito www.brainmindlife.org
della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia).
Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società,
la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici
selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori
riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.
[Tipologia del testo: RECENSIONE]
Ascoltare con piacere una canzone, magari perché siamo attratti e affascinati
dalla musica, dal testo o da entrambi, è un’esperienza comune che impegna numerosi
processi cerebrali, dall’elaborazione simultanea delle informazioni musicali e
verbali, alla gestione degli effetti evocativi sul tono affettivo e sulle
emozioni, passando per la preparazione di schemi psicomotori corrispondenti al
ritmo. Ciascuna di queste componenti dell’ascolto è stata studiata
separatamente e ha rivelato differenze individuali per lo più rappresentabili secondo
un andamento gaussiano, con gli estremi della curva che includono da una parte
le persone più carenti in sensibilità musicale e, dall’altra, le più dotate.
Ma, nonostante queste differenze, che si rendono particolarmente evidenti
nel caso delle persone “stonate”, ossia incapaci di riprodurre correttamente col
canto una melodia anche se ascoltata più volte, il cervello di tutti noi è in
grado di elaborare in maniera distinta, specializzata e mai confusa, le
informazioni acustiche musicali e verbali, anche quando sono sostanzialmente
fuse come nelle canzoni. Sulla base di dati anatomo-clinici, rilievi di neuroimaging
funzionale ed evidenze sperimentali, che forniscono elementi a favore di una sofisticata
specializzazione di dettaglio, si è implicitamente assunta la nozione di due
distinti processi percettivi, uno per l’analisi e la sintesi acustica
musicale, l’altro per analisi e sintesi acustica verbale.
Ma è lecito chiedersi: sono proprio due flussi di elaborazione del tutto
distinti e separati, oppure vi sono dei punti di contatto? Ad esempio, le aree
corticali o i gruppi neuronici tradizionalmente individuati in neuropsicologia
quali sedi di elaborazione di fonemi vocalici possono intervenire nella
percezione delle note di frequenza prossima alle vocali? Oppure, i sistemi neuronici
dell’emisfero destro implicati nel riconoscimento dell’intonazione prosodica legata
alla lingua o al dialetto del parlante, non sono gli stessi che consentono di distinguere
le tonalità maggiori dalle minori e di apprezzare lo sviluppo armonico che fa
da sfondo a un tema melodico?
È ancora difficile rispondere a questi interrogativi, ma intanto si può
considerare che l’asimmetria cerebrale nella specializzazione percettiva
accomuna parole e musica.
Philippe Albouy e colleghi, guidati dal celebre
studioso di basi cerebrali della musica Robert J. Zatorre,
hanno cercato con un interessante progetto di ricerca di dare risposta alle
seguenti domande: fino a che punto la percezione verbale e musicale dipendono
da meccanismi diversi nel cervello umano? Qual è la base anatomica sottostante
questa specializzazione? L’asimmetria cerebrale per parole e musica è emersa da
stimoli acustici o da reti neuroniche specifiche per dominio?
(Albouy
F., et al. Distinct sensitivity to spectrotemporal
modulation supports brain asymmetry for speech and melody. Science 367 (6481): 1043-1047, 2020).
La provenienza
degli autori è la seguente: Cognitive Neuroscience Unit, Montreal
Neurological Institute, McGill University, Montreal, QC (Canada); International
Laboratory for Brain, Music and Sound Research (BRAMS), Montreal, QC (Canada);
Centre for Research in Brain Language and Music, Montreal, QC (Canada); Centre
for Interdisciplinary Research in Music, Media and Technology, Montreal, QC (Canada);
CERVO Brain Research Center, School of Psychology, Laval University, QC (Canada);
Aix Marseille University, INSERM, INS, Institut de
Neurosciences des Systèmes, (France).
La difficoltà di separare le due componenti verbale e melodica, oltre ad
essere apparsa in passato irrealizzabile per difficoltà tecnica, era stata
ritenuta da alcuni ricercatori non proponibile, in quanto la musica, nella
concezione culturale umana, si ritiene sia nata, oltre che dalla percezione dei
suoni presenti in natura come il canto degli uccelli o il fischiare del vento,
dalla musicalità della parola, con le sue modulazioni affettive ed emozionali che
creano spettri acustici in ogni unità o segmento del linguaggio, dai singoli
fonemi alla prosodia dei discorsi. Dunque, se la musica è nata almeno in parte dalla
parola, ossia da semplice componente vocale della comunicazione si è emancipata
in arte, tecnica e scienza del suono, non avrebbe avuto senso, secondo quei
ricercatori, indagarne una base cerebrale distinta.
Tuttavia, ha prevalso l’opinione della maggioranza, secondo cui questa
specializzazione funzionale, pur essendo un processo acquisito nella diacronia
antropologica e non rappresentando il prodotto di un’evoluzione di lunga storia
biologica naturale, può essersi affermata attraverso una localizzazione
differenziata.
Su questa base, la scuola di Robert J. Zatorre,
che nella sua carriera di ricercatore ha dato un contributo rilevante alla
comprensione delle basi neurobiologiche dell’esperienza musicale e agli effetti
esercitati dall’ascolto della musica sul cervello e sulle sue funzioni del più
alto livello di sintesi integrativa, ha indagato le reti dell’encefalo che
mediano la risposta a stimoli acustici di natura differente, come la voce umana
e il suono dei vari strumenti musicali. In passato, le differenze fra stimoli
musicali erano ricondotte agli spettri di frequenza propri delle tonalità,
declinate secondo la scala diatonica naturale[1] e, al massimo, si giungeva a caratterizzare
timbri; ora la sfida era cercare di comprendere come si comporta il cervello di
fronte a “parole che sono musica”.
I ricercatori hanno creato un vero e
proprio corpus di “canzoni a cappella” – ossia di brani per sola voce, da
eseguire senza l’impiego di strumenti musicali – che contenevano sia
informazioni verbali di tipo semantico sia informazioni musicali di tipo
melodico, e hanno poi selettivamente filtrato modulazioni temporali o spettrali
negli stimoli acustici costituiti dalle parole del canto, in modo tale
che i contenuti verbali e melodici fossero distinti e bilanciati.
Con questa tecnica, Philippe Albouy e colleghi sono
riusciti a degradare ciascuno stimolo selettivamente o solo nel dominio
temporale o solo nel dominio spettrale.
Degradando l’informazione temporale,
all’ascolto diventava difficile o impossibile riconoscere le parole della
canzone, ma poteva essere facilmente riconosciuta la melodia;
degradando, invece, l’informazione spettrale si aveva la compromissione
della possibilità di riconoscere la melodia, senza nessun ostacolo al
riconoscimento delle parole.
Agli esperimenti di riconoscimento
si confermava che la comprensione del testo all’ascolto si riduceva soltanto
degradando l’informazione temporale, mentre la percezione distinta delle
melodie era alterata solo degradando l’informazione spettrale.
Lo studio del cervello dei volontari
mediante risonanza magnetica funzionale (fMRI, da functional
magnetic resonance imaging),
eseguita durante le prove di riconoscimento, ha prodotto evidenze interessanti.
I quadri di attività del cervello, consultabili come illustrazioni e corredo
iconografico dell’articolo originale, forniscono l’evidente rappresentazione di
configurazioni di aree attive secondo pattern particolari e specifici.
Si tratta di reti neuroniche che possono accostarsi a quelle di altri studi
sull’ascolto di brani di musica strumentale e di canzoni eseguite da voci e
orchestra, ma le differenze sono di capitale importanza, perché riguardano la
prima effettiva documentazione diacritica della risposta cerebrale separata
alla sola componente melodica e alla sola componente verbale.
In sintesi, le parole in quanto
tali attivavano nell’emisfero sinistro del cervello una superficie
circoscritta del giro temporale trasverso o prima circonvoluzione temporale, corrispondente
all’area 41 della mappa citoarchitettonica di Brodmann
della corteccia cerebrale, o area acustica primaria, le aree circostanti
site nell’opercolo temporale e costituenti la corteccia uditiva di associazione,
e infine tutte le aree corticali e sottocorticali a queste associate in una
rete di elaborazione percettiva verbale.
Al contrario, la melodia
attivava nell’emisfero destro del cervello la corteccia uditiva di
destra e le altre regioni cerebrali dello stesso lato, implicate nell’elaborazione
di caratteri qualitativi degli stimoli acustici.
Dai correlati si desume che la
classificazione dei contenuti verbali si verificava esclusivamente nella
corteccia uditiva di sinistra; mentre la classificazione dei contenuti
melodici si verificava esclusivamente nella corteccia uditiva di destra.
Sulla base dei rilievi effettuati, Philippe
Albouy e colleghi osservano che questa asimmetria è
supportata dalla specifica sensibilità al tasso di modulazione spettro-temporale
all’interno di ciascuna regione cerebrale, e che gli effetti di degradazione
sulla percezione avevano un riscontro parallelo negli effetti sulla classificazione
neurale.
Commentando i risultati dello
studio, che forniscono un’eloquente risposta ai primi due interrogativi all’origine
dell’indagine, i ricercatori deducono una soluzione anche per il terzo quesito,
ossia se l’asimmetria cerebrale per parole e musica è stata creata dalla
qualità degli stimoli acustici o si deve alla specificità delle reti neuroniche
per quel dominio funzionale, determinata in precedenza da altre ragioni
evoluzionistiche: i risultati suggeriscono un effetto congiunto delle proprietà
acustiche dei segnali e dell’adozione per il nuovo scopo delle
specializzazioni neurali esistenti.
L’autore
della nota ringrazia la dottoressa Isabella Floriani per la
correzione della bozza e invita alla
lettura delle recensioni di studi di
argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare
il motore interno nella pagina “CERCA”).
Giovanni Rossi
BM&L-21 marzo 2020
________________________________________________________________________________
La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla
International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate
di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale
94098840484, come organizzazione scientifica e culturale non-profit.
[1] Do-Re-Mi-Fa-Sol-La-Si-Do, più
diesis/bemolle interposti. Nei nostri seminari aperti al pubblico (tenuti in Firenze
presso il Caffè storico “Gilli” in Piazza della Repubblica
dal 2006 al 2009) sul tema “Musica e Cervello” abbiamo documentato e illustrato
numerosi studi delle produzioni vocali umane in termini musicali. Nella
differenza tonale fra la voce della madre e quella del lattante è stata
riconosciuta la consonanza di un intervallo di quinta perfetto (es.: Do-Sol).